首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏python3

    SER+FreeRADIUS实现3A

    .SER通过mysql数据库对sip客户进行认证. 2).SER通过radius对sip客户进行计费. 安装: 1.安装ser服务器 ==>到[url]www.iptel.org/ser[/url]下载ser-0.9.4_src.tar.gz. /Makefile.radius两行前面的"#"号 ==>进入ser主目录, 执行make编译ser, 执行make install安装ser. 2.配置ser的mysql支持 ==>进入ser源程序的 ==>执行make编译ser的mysql支持模块. ==>执行cp mysql.so /usr/local/lib/ser/modules把生成的动态链接 库拷贝到ser的模块目录中. 附录: 1.注意, 有时候SER不能正常启动, 需要使用命令: ldconfig 使系统注册SER所依赖的某些库. 2.SER配置文件(/usr/local/etc/ser.cfg): # # $Id:

    1.1K10发布于 2020-01-06
  • 来自专栏python3

    使用Python写Windows Ser

    如果你想用Python开发Windows程序,并让其开机启动等,就必须写成windows的服务程序Windows Service,用Python来做这个事情必须要借助第三方模块pywin32,自己去下载然后安装(注意下载符合自己OS的版本)

    1.6K40发布于 2020-01-10
  • 来自专栏python3

    python 搭建简单的http ser

    server: #coding=utf-8 from BaseHTTPServer import BaseHTTPRequestHandler import cgi class PostHandler(BaseHTTPRequestHandler): def do_POST(self): form = cgi.FieldStorage( fp=self.rfile, headers=self.headers,

    73410发布于 2020-01-09
  • 来自专栏python3

    Python3实现简单的http ser

    前端的开发的html给我们的时候,由于内部有一些ajax请求的.json的数据,需要在一个web server中查看,每次放到http服务器太麻烦。还是直接用python造一个最方便。 最简单的,直接用 python3 -m http.server 但是我在测试的时候发现在收到json数据的时候,由于content-type不对,部分内容显示不出来,于是写出来新版本. 这个版本加了几种常见的mimetype的支持。 在Mac下使用python3 myhttpserver.py启动。

    80620发布于 2020-01-06
  • 来自专栏具身小站

    日语客服对话系统的低延迟方案

    优化空间 电话接入(Twilio) 网络传输 50–100ms 30–50ms 选日本Region节点 ASR语音识别 最大瓶颈 300–800ms 100–200ms 流式识别 + 端点检测 情感识别(SER :边生成边输出,不等全部完成 └── TTS:边生成边播放,不等全部合成 策略二:并行处理(Parallelism) ├── SER与ASR并行:情感识别不增加延迟 ├── RAG预取:ASR识别中途开始检索 策略四:轻量化(Lightweight) ├── 使用小参数LLM(7B/13B)替代大模型 ├── 使用轻量SER模型(emotion2vec-seed) └── 缓存高频问答,跳过LLM 2.2 优化:流式输出 + 小模型选择 【LLM延迟优化策略】 1. 流式TTS(最重要) 传统方式:等LLM生成完整文本 → TTS合成 → 播放 优化方式:LLM生成首句 → 立即TTS合成 → 播放 节省:300–500ms 2.

    13110编辑于 2026-04-14
  • 来自专栏AI工程落地

    TensorRT LLM vs OpenPPL LLM

    支持模型和功能对比PPL LLM只支持baichuan、chatglm、llama三个模型,Tensor-LLM支持几乎所有大模型。 TensorRT-LLM使用起来更方便模型量化TensorRT-LLM是离线量化,支持更多的量化方法,smooth quant、weight only、AWQ等PPL LLM是实时量化(i8i8),支持整个网络一起量化 模型DeployTensorRT-LLM量化结束,不需要deploy中间模型,直接进入编译器。部分模型可以支持onnx可视化PPL LLM不需要deploy以及编译,直接用onnx调算子。 /docs/llama_guide.md at master · openppl-public/ppl.llm.serving (github.com)TensorRT LLM原模型-->量化-->编译 两个框架都是tensor并行框架依赖Tensor-LLM需要依赖tensorrt,但主要是一些单算子(卷积、激活函数、gemm等),融合算子都是Tensor-LLM自带的。PPL LLM没有依赖

    1.2K30编辑于 2023-11-21
  • 来自专栏具身小站

    具备情绪感知的,智能语音对话系统方案

    识别用户情感 准确率>90% 跨方言、降噪 情感管理 追踪情感变化 连贯性>95% 多轮平滑 RAG 知识库检索 相关性>85% 情感融合 LLM 生成回复 自然度>4.0 情感感知 情感TTS 合成语音 (目标<2秒) ☐ 建立监控告警 成功指标: SER准确率 > 85% 端到端延迟 < 2秒 系统稳定性 > 99% 6.1.2 第二阶段:情感感知LLM(3–4周) 目标: 实现情感感知的对话生成 任务清单 +TTS)→ 简单情感感知Prompt → 阿里云通信 8.1.2 技术栈 模块 选型 电话接入 阿里云通信 ASR 讯飞听见 SER 讯飞听见 LLM 通义千问2.5 RAG框架 Dify(可视化) ) + LangChain+RAG + 讯飞情感TTS + 阿里云通信 8.2.2 技术栈 模块 选型 电话接入 阿里云通信 ASR 阿里云ASR SER emotion2vec+(本地) LLM DeepSeek 第4–7周:情感感知LLM 第8–10周:情感TTS 第11周+:持续优化 建立反馈循环 — 持续改进 每周收集用户反馈 每月进行A/B测试 每季度优化参数 成功指标 阶段 指标 目标 第1阶段 SER

    18710编辑于 2026-04-14
  • 来自专栏机器学习炼丹术

    图片质量评估论文 | 无监督SER-FIQ | CVPR2020

    参考目录: 0 综述 1 细节 2 总结 论文名称:SER-FIQ: Unsupervised Estimation of Face Image Quality Based on Stochastic

    1.2K31发布于 2021-01-18
  • 来自专栏NewBeeNLP

    LLM in Reranking——利用LLM进行重排

    现有的涉及LLM的重排方法大致可以分为三类: 用重排任务微调LLM 使用prompt让LLM进行重排 以及利用LLM做训练数据的增强 本文中针对前两种方法介绍一些研究。 Method 使用TF-IDF相似度得到初步的候选文档集,再使用LLM进行重排。 LLM对召回的文档先进行打分,保留top K_1个文档,用超链接对这些文档进行扩展,再用LLM对扩展文档打分并挑选top K_2的文档,如此往复直到到达最大深度H。 一方面,LLM的输入长度对于一个文档列表来说还是十分受限的,必须通过滑动窗口或集成的方式才能实现文档输入。 另外,还有参数过剩与时效性的问题会导致LLM重排器难以落地。

    3.4K30编辑于 2023-10-25
  • 来自专栏前行的CVer

    LLM评测

    Open LLM Leaderboard(英文) Open LLM Leaderboard中包含有下列Benchmark: 所有能力 通用&数学&code——MT-Bench,由80个高质量的多轮对话问题组成的基准 是多个数据集的结合,划分了LLM的语言、知识、推理、数学、Code、Agent几类能力。

    1.7K10编辑于 2024-08-05
  • 来自专栏k8s技术圈

    LLM On Kubernetes

    从今年开始,人们对大型语言模型 (LLM) 及其在 GPU 基础设施上的部署的兴趣显着增加。这种不断增长的热情是由人工智能和机器学习的进步推动的,这需要 GPU 能够有效提供大量的计算能力。 Ollama 是一个开源的机器学习模型部署工具,它可以帮助您将模型部署到生产环境中,简化大型语言模型 (LLM) 的管理和交互。

    73510编辑于 2024-07-20
  • 来自专栏时空探索之旅

    WWW 2026 | LLM×Graph论文总结【LLM4Graph & Graph4LLM

    本文总结了2026 WWW上有关LLM Graph的相关论文,包含Research一个Track的论文(没有其它track),总计24篇,如有疏漏,欢迎补充。 笔者将LLM和Graph结合的工作分为两大类,一类是LLM4Graph,即LLM做图任务。 另外一类是利用Graph4LLM,即利用图这种格式来增强LLM的能力。 LLM4Graph1. Disentangled Graph LLM for Molecule Graph Editing under Distribution Shifts4. ,RAG 推荐阅读 ICLR 2026 | LLM×Graph论文总结【LLM4Graph与Graph4LLM】 ICLR 2026 | Rebuttal前 图基础模型(GFM)&文本属性图(TAG)高分论文

    33910编辑于 2026-03-10
  • triton+tensorrt-llm后端部署LLM服务

    /trtllm_checkpoint_fp16 \ --dtype float16 ❝[TensorRT-LLM] TensorRT-LLM version: 0.17.0.post1 [TensorRT-LLM][INFO] Refreshed the MPI local session [TensorRT-LLM][INFO] MPI size: 1, MPI local size : 1, rank: 0 [TensorRT-LLM][INFO] Rank 0 is using GPU 0 [TensorRT-LLM][WARNING] Fix optionalParams : ] TRTGptModel maxNumSequences: 2048 [TensorRT-LLM][INFO] TRTGptModel maxBatchSize: 2048 [TensorRT-LLM : 0 [TensorRT-LLM][INFO] TRTGptModel maxNumTokens: 8192 [TensorRT-LLM][INFO] TRTGptModel maxInputLen:

    46810编辑于 2026-03-25
  • 来自专栏时空探索之旅

    ICLR 2026 | LLM×Graph论文总结【LLM4Graph与Graph4LLM

    本文总结了2026 ICLR上有关LLM Graph的相关论文。总计29篇,如有疏漏,欢迎补充。 观察:LLM Graph统计值 最大均分 均值 最小均分 6 5.21 4 其中均分≥6的有4篇,其中。 笔者将LLM和Graph结合的工作分为两大类,一类是LLM4Graph,即LLM做图任务。 另外一类是利用Graph4LLM,即利用图结构来增强LLM的能力。 LLM4Graph & TAG1. id=0RdAmwfVku 关键词:LLM reasoning, Knowledge Graphs, KG-enhanced LLM 作者:Wenxin Zhao, Jiachuan Wang, Yongqi id=34cANdsHKV 关键词:LLM Collaboration, Multi-Agent LLM 作者:Sukwon Yun, Jie Peng, Pingzhi Li, Wendong Fan

    43110编辑于 2026-03-10
  • 来自专栏windealli

    LLM Agent 简介

    什么是LLM Agent导语GPT(尤其是GPT-4)等大语言模型(LLM)的推出,让人类认识到了大语言模型强大的文本生成能力。 只是用来做文本生成工具的话,LLM的能力就被严重低估了。 LLM Agent 概念定义关于LLM Agent, OpenAI 应用人工智能研究负责人Lilian Weng在其Blog中将LLM Agent定义为LLM、记忆(Memory)、任务规划(Planning 通过LLM和三个关键组件,LLM Agent可以拥有复杂的工作流程,其中模型基本上是与自身对话,而无需人工参与到交互的每个部分。 LLM Agent通过迭代运行并定义一些新的目标/任务,而非传统GPT那般接受单个查询的输入并返回输出LLM Agent 常见功能LLM Agent能够基于大语言模型进行对话、完成任务、推理,并可以展示一定程度的自主行为 LLM 与 三个组件LLM Agent 以 LLM 驱动,并需要三大组件辅助以完成工作(图片来自: https://lilianweng.github.io/posts/2023-06-23-agent

    7.2K23编辑于 2024-01-12
  • LLM挂载&部署

    limit_mm_per_prompt image=4 --max_model_len 8784 成功挂载: 在Dify中编辑“模型供应商”,添加更多模型供应商“OpenAI-API-compatible”,不仅支持LLM

    31810编辑于 2025-05-22
  • 来自专栏磐创AI技术团队的专栏

    拥有LLM模型

    大型语言模型(LLM)越来越显示出其价值。将图像纳入LLMs使它们作为视觉语言模型更加有用。在本文中,我将解释一个名为GIT-LLM的模型的开发,这是一个简单但强大的视觉语言模型。 然而,在本文中,我尝试使用强大的LLM并进行微调。在这里,我称该模型为“GIT-LLM”。 使用Hugging Face的Transformers的LLM 我将使用Hugging Face的Transformers库来开发GIT-LLM。 我相信Transformers对于最近LLM衍生物的发展做出了重要贡献。 在其中,需要将一个视觉编码器与一个LLM连接起来。我将解释一些关键组件。

    58910编辑于 2024-06-06
  • 极客事纪-linux运维云计算SER架构师【2306期】

    在数字经济的浪潮之巅,Linux运维工程师、云计算专家、站点可靠性工程师和系统架构师,这些角色不仅是高科技企业的支柱,更代表着一种从执行到设计、从局部到全局、从技术到艺术的思维进化历程。剖析这条路径,我们能从中提炼出对现代教育极具启发性的核心价值。

    25410编辑于 2025-11-21
  • 来自专栏用户9703952的专栏

    LLM安全专题

    提示攻击 提示攻击是一种利用 LLM 漏洞的攻击方式,通过操纵输入或提示来实现。与传统黑客攻击(通常利用软件漏洞)不同,提示攻击依赖于精心设计的提示,欺骗LLM执行非预期的操作。 填空式攻击:输入被禁词汇的一部分,要求LLM补全剩余部分或根据上下文生成。 有效载荷拆分 有效载荷拆分涉及将攻击性输入分成多个部分,然后让LLM将它们组合并执行。 递归注入 需要在第一个 LLM 产生的输出在经过第二个 LLM 评估时产生恶意效果,比如下面的组合: 请提供以下主题或对象的正面信息,并谈论其与自然的关系: {{用户输入}} 第一个LLM在回答关于自然的问题之后 {{第一个LLM输出}}. 第二个LLM可能会按照嵌入的指令回答是,即使原始输出并未包含任何猥亵或冒犯性内容,这样一来就成功地完成了提示攻击。 代码注入 攻击者能让LLM运行任意代码(通常是Python),这种情况可能发生在使用工具增强的LLM中,LLM能够将代码发送给解释器执行。

    77710编辑于 2025-02-06
  • 来自专栏charlieroro

    LLM RAG系列

    该方式用于通过LLM来选择知识库。 with function call llm = ChatOpenAI(model="gpt-3.5-turbo-0125", temperature=0) structured_llm = llm.with_structured_output (structured_llm)输入提示(prompt)来产生结果 router = prompt | structured_llm 下面是使用方式。 还是作为一个代理工具,将其输出导入到其他LLM中进一步处理?如果是后者,可能需要限制传递到下一个LLM的上下文窗口的输出长度。 另外一个CRAG由于其他方法(如Self-RAG)的点是它可以灵活地替换底层LLM,如果未来可能要采用更加强大的LLM,这一点至关重要。

    1.3K35编辑于 2024-04-02
领券